-Daniel Bass Η βελτίωση της απόδοσης των εφαρμογών μέσω της χρήσης των παραγόντων τεχνητής νοημοσύνης γίνεται πολύ συνηθισμένη πρακτική - είτε λόγω της εκστρατείας σε ολόκληρη τη βιομηχανία είτε πραγματικών χρήσιμων περιπτώσεων χρήσης. Ωστόσο, αυτοί οι πράκτορες τεχνητής νοημοσύνης συχνά απαιτούν πρόσβαση σε ιδιαίτερα ευαίσθητα δεδομένα, εισάγοντας σημαντικούς κινδύνους ασφαλείας.Χωρίς τυποποιημένες λύσεις ελέγχου πρόσβασης, οι ομάδες ανάπτυξης συχνά δημιουργούν μέτρα ασφαλείας από το μηδέν - οδηγώντας σε περιπτώσεις όπου και αρκετοί πράκτορες AI που διακυβεύονται μέσω . . Οι βοηθοί AI αποκαλύπτουν ευαίσθητες πληροφορίες ασθενών Σύντομες επιθέσεις με έγκαιρη ένεση Η προστασία των παραγόντων της τεχνητής νοημοσύνης σε αυτό το πλαίσιο γίνεται εξίσου σημαντική με τις δυνατότητες των ίδιων των παραγόντων της τεχνητής νοημοσύνης - αν όχι περισσότερο. Για την αντιμετώπιση αυτού του προβλήματος, στην Εργάζομαι εδώ και αρκετό καιρό σε μια δομημένη προσέγγιση ασφάλειας που θέλω να σας παρουσιάσω σήμερα: Επιτρέψτε μου . . Το τετραπεριμετρικό πλαίσιο Το τετραπεριμετρικό πλαίσιο Αυτή η μέθοδος παρέχει μια ολοκληρωμένη στρατηγική για την προστασία των παραγόντων AI με την εφαρμογή , εξασφάλιση της συμμόρφωσης και μείωση των δυνητικών φορέων επίθεσης. Πριν προχωρήσω στην λύση, ας μιλήσουμε περισσότερο για τον χώρο του προβλήματος. Καθαρός έλεγχος πρόσβασης Το πρόβλημα: Κίνδυνοι ασφαλείας AI σε ευαίσθητους τομείς Τα παραδοσιακά μέτρα ασφαλείας εφαρμογών και οι μηχανισμοί ελέγχου πρόσβασης λείπουν όταν πρόκειται για τη διαχείριση των παραγόντων τεχνητής νοημοσύνης. Αντίθετα με τις παραδοσιακές εφαρμογές όπου οι εισροές χαρτογραφούν τις προβλέψιμες εξόδους και τα πρότυπα πρόσβασης είναι καλά καθορισμένα, η τεχνητή νοημοσύνη δημιουργεί μοναδικές απαντήσεις για κάθε ερώτημα. Ρόλος με βάση τον έλεγχο πρόσβασης (RBAC) Ο τρόπος με τον οποίο τα συστήματα AI έχουν πρόσβαση στα δεδομένα επίσης δεν ταιριάζει με τα πρότυπα ασφαλείας.Για να παρέχουν ακριβείς και χρήσιμες απαντήσεις, οι πράκτορες AI χρειάζονται ευρεία πρόσβαση σε διάφορες πηγές δεδομένων και βάσεις γνώσεων.Το κλασικό RBAC αποδεικνύεται πολύ άκαμπτο για αυτή την ανάγκη - δεν μπορείτε απλά να εκχωρήσετε στατικά δικαιώματα όταν οι απαιτήσεις δεδομένων αλλάζουν ανάλογα με το πλαίσιο. Μια προσέγγιση που μπορεί να κάνει δυναμικές αποφάσεις πρόσβασης. Με βάση τα χαρακτηριστικά Μια άλλη ανησυχία είναι οι νέοι φορείς επίθεσης που εισάγουν τα συστήματα τεχνητής νοημοσύνης. τα συμβατικά μέτρα ασφαλείας δεν σχεδιάστηκαν για να χειριστούν επιθέσεις έγκαιρης ένεσης, προσπάθειες εξαγωγής μοντέλων ή επιθέσεις δηλητηρίασης δεδομένων. Η λύση έρχεται με τη μορφή ενός ολοκληρωμένου πλαισίου ασφαλείας που χτίστηκε γύρω από τέσσερις βασικές περιμέτρους - Η λύση: Το τετραπεριμετρικό πλαίσιο Καθώς οι εφαρμογές τεχνητής νοημοσύνης διαφέρουν από το τυπικό λογισμικό στον τρόπο με τον οποίο επεξεργάζονται τις εισροές, ανακτούν δεδομένα, εκτελούν ενέργειες και δημιουργούν εξόδους, εισάγουν επίσης μοναδικούς κινδύνους ασφάλειας.Για να αντιμετωπίσουμε αυτές τις προκλήσεις, χρειαζόμαστε μια δομημένη προσέγγιση ασφάλειας που εφαρμόζει έλεγχο πρόσβασης σε κάθε στάδιο της αλληλεπίδρασης τεχνητής νοημοσύνης. Η έχει σχεδιαστεί για να επιβάλλει την ταυτότητα-συνείδηση, Εισάγει όρια ασφαλείας που διέπουν ποια μοντέλα AI δεδομένων μπορούν να έχουν πρόσβαση, ποιες λειτουργίες μπορούν να εκτελέσουν και πώς επικυρώνονται οι απαντήσεις τους. Four-Perimeter Framework Αδειοδότηση σε όλη τη διάρκεια του κύκλου ζωής Το πλαίσιο αποτελείται από τέσσερα μέρη: Πρόσκληση φιλτραρίσματος – εξασφαλίζοντας ότι μόνο επικυρωμένες, ασφαλείς εισροές φθάνουν στα μοντέλα AI. RAG Data Protection – έλεγχος της πρόσβασης της τεχνητής νοημοσύνης σε εξωτερικές πηγές γνώσης. Ασφαλής εξωτερική πρόσβαση – Ορισμός δικαιωμάτων του πράκτορα AI κατά την αλληλεπίδραση με εξωτερικά εργαλεία. Εφαρμογή ελέγχων συμμόρφωσης και φιλτράρισμα των τεχνητής νοημοσύνης που παράγονται. Με την εφαρμογή Σε αυτές τις περιόδους, οι πράκτορες του AI παραμένουν χωρίς να θυσιάζουν την ευελιξία και τη λειτουργικότητά τους. fine-grained access control (FGA) secure, auditable, and compliant Πού μπαίνει η FGA; Όπως αναφέρθηκε προηγουμένως, οι παραδοσιακές μέθοδοι ελέγχου πρόσβασης όπως το RBAC αποτυγχάνουν να χειριστούν τη δυναμική, εξαρτημένη από το πλαίσιο συμπεριφορά της τεχνητής νοημοσύνης. Τα μοντέλα AI επεξεργάζονται μη δομημένες εισροές, γεγονός που καθιστά δύσκολη την εφαρμογή παραδοσιακών κανόνων ασφαλείας. Το ReBAC για RAG Data Protection Retrieval-Augmented Generation (RAG) επιτρέπει στα μοντέλα AI να αντλούν πληροφορίες από βάσεις δεδομένων φορέων. Το ReBAC παρέχει έναν φυσικό τρόπο επιβολής της ασφάλειας σε αυτή τη ρύθμιση, καθορίζοντας σχέσεις μεταξύ χρηστών, πηγών δεδομένων και πράκτορες AI. Αντί να εκχωρούν στατικά δικαιώματα, το ReBAC χορηγεί ή αρνείται δυναμικά πρόσβαση με βάση τον τρόπο με τον οποίο τα αντικείμενα δεδομένων σχετίζονται μεταξύ τους – επιτρέποντας δικαιώματα ανάκτησης με γνώση του πλαισίου. Με τον συνδυασμό των ABAC και ReBAC, οι εφαρμογές AI αποκτούν ευέλικτους μηχανισμούς ελέγχου πρόσβασης που βασίζονται σε πολιτικές και προσαρμόζονται σε διαφορετικές ροές εργασίας AI χωρίς να απαιτείται χειροκίνητη παρέμβαση. Τι είναι μια εφαρμογή βήμα προς βήμα; Ας περάσουμε από μια πρακτική εφαρμογή για να δούμε την Αυτό το παράδειγμα εξασφαλίζει έναν πράκτορα AI από —leveraging Ενσωμάτωση σε κάθε βήμα. Four-Perimeter Framework in action validating prompts, enforcing data protection, restricting external access, and moderating responses AI Access Control Επιτρέψτε μου Επιτρέψτε μου 1. Implement Prompt Filtering Η πρώτη περίμετρος ασφαλείας επικεντρώνεται στην επικύρωση και την εξυγίανση των εισροών AI πριν φτάσουν στο μοντέλο. Οι έλεγχοι εξουσιοδότησης ενσωματώνονται στον αγωγό άμεσης επικύρωσης, αποτρέποντας τα μη εξουσιοδοτημένα δεδομένα από την επίδραση στις εξόδους AI. Ο ρόλος, το χαρακτηριστικό και ο έλεγχος πρόσβασης με βάση τη σχέση επιβάλλονται, εξασφαλίζοντας ότι μόνο οι εγκεκριμένες παραμέτρους περνούν στην AI. Οποιεσδήποτε παραβιάσεις πολιτικής καταγράφονται και μπλοκάρονται σε πραγματικό χρόνο, διατηρώντας ένα ελεγχόμενο ίχνος αποφάσεων πρόσβασης. Εδώ είναι οι τρεις μέθοδοι για το φιλτράρισμα των προειδοποιήσεων - από το ευκολότερο στο πιο προηγμένο: Επαλήθευση Token - Μια αποτελεσματική μέθοδος για απλούς ελέγχους όπως το μήκος της προειδοποίησης ή η γενική άδεια εκτέλεσης εισερχόμενων στοιχείων στο σύστημα. Συμμόρφωση προτύπων - σε αυτή τη μέθοδο, ο έλεγχος δικαιωμάτων εξετάζει τα μοτίβα στο προτεινόμενο κείμενο, για παράδειγμα, ελέγχοντας αν το μοτίβο ταιριάζει με ένα ερώτημα SQL ή ένα παράδειγμα κώδικα. Η πιο προηγμένη μέθοδος αυτής της λίστας, η ταξινόμηση της AI χρησιμοποιεί την τεχνητή νοημοσύνη για να αναλύσει την προειδοποίηση χρησιμοποιώντας μια αφιερωμένη προειδοποίηση συστήματος, ταξινομώντας την σε μια δομημένη είσοδο που μπορεί να αναλυθεί με ακρίβεια στον έλεγχο δικαιωμάτων. Prompt Filtering with PydanticAI Για να αποδείξετε καλύτερα την εφαρμογή της αποτελεσματικής φιλτραρίσματος κλήσεων, εδώ είναι ένα παράδειγμα χρήσης εργαλείων PydanticAI για να φιλτράρετε τις εισροές χρηστών σε πράκτορες AI. Το PydanticAI είναι ένα πλαίσιο πράκτορα που εκμεταλλεύεται τη διάσημη βιβλιοθήκη Pydantic της Python και τις δυνατότητες στατικής πληκτρολόγησης και το μετατρέπει σε ένα δομημένο πλαίσιο AI που χειρίζεται μη δομημένα δεδομένα. Το ακόλουθο αποθετήριο GitHub περιέχει μια πλήρη εφαρμογή του πλαισίου για το PydanticAI: github.com/επιτρέψιμο/επιτρέψιμο @financial_agent.tool async def validate_financial_query( ctx: RunContext[PermitDeps], query: FinancialQuery, ) -> bool: """Key checks: - User has explicitly opted in to AI financial advice - Consent is properly recorded and verified - Classifies if the prompt is requesting advice Args: ctx: Context containing Permit client and user ID query: The financial query to validate Returns: bool: True if user has consented to AI advice, False otherwise """ try: # Classify if the prompt is requesting advice is_seeking_advice = classify_prompt_for_advice(query.question) permitted = await ctx.deps.permit.check( # The user object with their attributes { "key": ctx.deps.user_id, }, # The action being performed "receive", # The resource being accessed { "type": "financial_advice", "attributes": {"is_ai_generated": is_seeking_advice}, }, ) if not permitted: if is_seeking_advice: return "User has not opted in to receive AI-generated financial advice" else: return "User does not have permission to access this information" return True except PermitApiError as e: raise SecurityError(f"Permission check failed: {str(e)}") 2. Enforce Data Protection – Στη συνέχεια εξασφαλίζουμε διασφαλίζοντας ότι τα μοντέλα AI μπορούν να έχουν πρόσβαση μόνο σε Αυτό μπορεί να επιτευχθεί μέσω λεπτομερούς φιλτραρίσματος των δεδομένων του πράκτορα AI για λογαριασμό του χρήστη εντός της ροής εργασίας AI: retrieval-augmented generation (RAG) authorized knowledge sources Η λεπτομερής πολιτική χρησιμοποιεί προηγμένα μοντέλα φιλτραρίσματος δεδομένων, όπως ο έλεγχος πρόσβασης βάσει σχέσης, για να επιτρέψει την προηγμένη διήθηση ερωτήσεων στη μηχανή πολιτικής. Οι πηγές vector και graph που συνδέονται με τους πράκτορες AI έχουν μεταδεδομένα που μπορούν να βοηθήσουν τη μηχανή να χειραγωγήσει το μη δομημένο ερώτημα, φιλτράροντας το για να συμπεριλάβει μόνο επιτρεπόμενα δεδομένα. Κάθε φορά που ο πράκτορας λαμβάνει δεδομένα από τη βάση γνώσεων RAG, φιλτράρει τα αποτελέσματα ανάλογα με την άδεια του χρήστη. Όταν η εφαρμογή του παράγοντα εκτελεί φιλτράρισμα RAG, χρησιμοποιεί μία από τις ακόλουθες μεθόδους: FilterObjects—Με αυτή τη μέθοδο, η εφαρμογή γραφήματος λαμβάνει όλα τα σχετικά δεδομένα από το RAG και στη συνέχεια το φιλτράρει ανά δικαιώματα χρήστη. GetUserPermissions - Σε αυτή τη μέθοδο, ο πράκτορας παρέχει στο RAG ένα μη δομημένο ερώτημα. Το RAG καλεί στη συνέχεια τη λειτουργία GetUserPermissions, προσθέτοντας ένα ερώτημα φίλτρου στο μη δομημένο ερώτημα RAG. Αυτό επιτρέπει στο ερώτημα να φιλτραριστεί μόνο στους πόρους στους οποίους μπορεί να έχει πρόσβαση ο χρήστης. RAG Data Protection with Langchain Το Langchain, το διάσημο πλαίσιο εφαρμογών AI, είναι γνωστό (επίσης) για τα συστατικά του Retriever που παρέχουν μεγάλη υποστήριξη σε προσαρμοσμένα Retrievers που μπορούν να συναρμολογηθούν με οποιοδήποτε είδος πηγής δεδομένων, καθιστώντας την εφαρμογή ασφαλούς RAG εύκολη. , μπορείτε να τυλίξετε το συνηθισμένο RAG με ένα Εδώ είναι ένα παράδειγμα του PermitSelfQueryRetriever που παίρνει τον χρήστη, την ενέργεια και τον τύπο των πόρων RAG για να φιλτράρει τα αποτελέσματα για το LLM: SelfQueryRetriever GetUserPermissions # 1. Build a small in-memory vector store embeddings = OpenAIEmbeddings() vectorstore = FAISS.from_documents(docs, embedding=embeddings) # 2. Initialize the PermitSelfQueryRetriever retriever = PermitSelfQueryRetriever( api_key=os.getenv("PERMIT_API_KEY", ""), pdp_url=os.getenv("PERMIT_PDP_URL"), user=USER, resource_type=RESOURCE_TYPE, action=ACTION, llm=embeddings, vectorstore=vectorstore, enable_limit=False, ) Το ακόλουθο αποθετήριο περιέχει την πλήρη εφαρμογή του πλαισίου για το Langchain: https://github.com/επιτρεπόμενη/langchain-επιτρέπεται 3. Secure External Access – Οι πράκτορες τεχνητής νοημοσύνης συχνά αλληλεπιδρούν με εξωτερικά API, υπηρεσίες και εργαλεία αυτοματισμού. Χωρίς τον κατάλληλο έλεγχο πρόσβασης, διατρέχουν τον κίνδυνο να εκτελέσουν μη εξουσιοδοτημένες ενέργειες. Η χρήση μοντέλων όπως το MCP, το οποίο καθορίζει ένα μοντέλο διακομιστή-πελάτη όπου οι πράκτορες AI αλληλεπιδρούν με εξωτερικές υπηρεσίες, είναι ένα μεγάλο βήμα για την ενεργοποίηση της ασφάλειας για την εξωτερική πρόσβαση AI (π.χ. βάσεις δεδομένων, API, συστήματα πληρωμών). Η υποδομή δράσης AI μπορεί να χρησιμοποιήσει μια υπηρεσία όπως το Permit.io για να εκτελέσει ελέγχους εξουσιοδότησης σε επίπεδο δράσης, ελέγχοντας ποιος κάνει ένα αίτημα και ποια ενέργεια θέλουν να εκτελέσουν. Οι προγραμματιστές είναι σε θέση να εκχωρήσουν ταυτότητες μηχανών σε πράκτορες AI, περιορίζοντας τις δυνατότητές τους μόνο σε προκαθορισμένες λειτουργίες. Ενώ τα GPT και οι διεπαφές φυσικής γλώσσας δεν είναι νέα, επιτρέποντάς τους να εκτελούν ενέργειες για λογαριασμό των χρηστών είναι μια σχετικά νέα πρόκληση που πολλοί μηχανικοί αγωνίζονται με. Ασφάλεια άμεσης πρόσβασης - το απλούστερο επίπεδο. Ένας χρήστης ζητά από έναν πράκτορα AI να εκτελέσει μια λειτουργία, όπως μια κλήση HTTP. Ο πράκτορας AI ξέρει να ελέγχει αν η λειτουργία επιτρέπεται, λαμβάνοντας υπόψη το τρέχον πλαίσιο και τον χρήστη. Επικοινωνία από πράκτορα σε πράκτορα - σε αυτό το επόμενο επίπεδο, χρειαζόμαστε μια κατακερματισμένη ροή ταυτότητας και αδειών που επιτρέπουν στους πράκτορες να εκτελούν τις ίδιες τις ενέργειες με βάση την αρχή του ελάχιστου προνομίου. Οι ροές αιτήσεων πρόσβασης - το πιο συναρπαστικό επίπεδο εξωτερικής πρόσβασης είναι όταν ο πράκτορας AI κατανοεί την ανάγκη να ζητήσει πρόσβαση απευθείας από έναν ανθρώπινο χρήστη όταν θέλει να εκτελέσει μια λειτουργία. MCP, Human-in-the-Loop, and External Access Το πρωτόκολλο Model Context Protocol είναι ένα νέο πρωτόκολλο που εισήχθη από την Anthropic, το οποίο λύει το πρόβλημα του να επιτρέπεται στους πράκτορες της τεχνητής νοημοσύνης να εκτελούν προληπτικές ενέργειες και χρησιμεύει ως ο μεγαλύτερος διευκολυντής για την εξασφάλιση εξωτερικής πρόσβασης. Στο παρακάτω παράδειγμα, παρουσιάζουμε έναν διακομιστή MCP που ξέρει πώς να διαχειρίζεται τις ροές αιτήσεων πρόσβασης φέρνοντας ανθρώπους στον κύκλο και χρησιμοποιεί τα API του Permit.io για να ζητήσει δικαιώματα. Μπορείτε να δείτε το πλήρες παράδειγμα κώδικα για τον διακομιστή αιτήσεων πρόσβασης MCP εδώ: https://github.com/επιλογή/επιλογή-mcp @mcp.tool() async def request_access(username: str, resource: str, resource_name: str) -> dict: """ Initiate access request call to a specific resource in the system Args: username: The username of the person requesting access resource: The resource type the user is request access for resource_name: The name of the restaurant to request access for """ login = await permit.elements.login_as({ "userId": slugify(username), "tenant": "default"}) print(login) url = f"https://api.permit.io/v2/facts/{PROJECT_ID}/{ENV_ID}/access_requests/{ELEMENTS_CONFIG_ID}/user/{slugify(username)}/tenant/default" payload = { "access_request_details": { "tenant": "default", "resource": resource, "resource_instance": resource_name['id'], "role": "viewer", }, "reason": f"User {username} requests role 'viewer' for {resource_name}" } headers = { "authorization": "Bearer YOUR_API_SECRET_KEY", "Content-Type": "application/json", } async with httpx.AsyncClient() as client: await client.post(url, json=payload, headers=headers) return "Your request has been sent. Please check back later." 4. Validate AI Responses – Η τελική περίμετρος επιβάλλει τη μετριοπάθεια του περιεχομένου και τη συμμόρφωση στις απαντήσεις που παράγονται από την τεχνητή νοημοσύνη. Αυτό μπορεί να γίνει με τη δημιουργία μιας ροής εργασίας που εφαρμόζει φιλτράρισμα βάσει πολιτικής πριν από την παράδοση των εξόδων τεχνητής νοημοσύνης: Ένας έλεγχος δικαιωμάτων μπορεί να προστεθεί στην εφαρμογή του πράκτορα, επιτρέποντας την επιβολή πολιτικής σε κάθε βήμα της αλυσίδας πριν ο χρήστης λάβει πραγματικά μια απάντηση. Οι συνδυασμένες ροές εργασίας επικύρωσης δεδομένων και εξουσιοδότησης εξασφαλίζουν ότι μόνο επικυρωμένα και επιτρεπόμενα δεδομένα μπορούν να προχωρήσουν. Η απάντηση που επιστρέφει στους χρήστες μπορεί να επεξεργαστεί με βάση προκαθορισμένους περιορισμούς, επιτρέποντας έτσι την απόκρυψη δεδομένων ή την ειδοποίηση του χρήστη για περιορισμούς χρήσης. Response Filtering with Langflow Στο παρακάτω παράδειγμα, χρησιμοποιούμε το Langflow, έναν οπτικό επεξεργαστή εφαρμογών AI χωρίς κώδικα, για να δημιουργήσουμε ένα στοιχείο ελέγχου δικαιωμάτων που τοποθετείται πριν από οποιαδήποτε απάντηση συνομιλίας στον χρήστη. Χρησιμοποιώντας τις φιλικές δυνατότητες μοντελοποίησης ροής του LangFlow, μπορείτε εύκολα να προσθέσετε ένα άλλο στοιχείο που καλύπτει ανεπιθύμητες λεπτομέρειες στις απαντήσεις που επιστρέφονται. Περιέχει όλα τα στοιχεία ελέγχου πρόσβασης που απαιτούνται για ασφαλείς εφαρμογές Langflow. Αυτό το αποθετήριο Συμπέρασμα Τα συστήματα τεχνητής νοημοσύνης ενσωματώνονται γρήγορα σε εφαρμογές σε διάφορες βιομηχανίες, αλλά τα πλαίσια ασφαλείας τους παραμένουν υποανάπτυκτα σε σύγκριση με το παραδοσιακό λογισμικό.Χωρίς τον κατάλληλο έλεγχο πρόσβασης με επίγνωση ταυτότητας, οι πράκτορες τεχνητής νοημοσύνης διατρέχουν τον κίνδυνο να εκθέσουν ευαίσθητα δεδομένα, να εκτελέσουν μη εξουσιοδοτημένες λειτουργίες και να δημιουργήσουν απαντήσεις που δεν εμπίπτουν στις κατευθυντήριες γραμμές συμμόρφωσης. Το Four-Perimeter Framework προσφέρει έναν δομημένο τρόπο για την εξασφάλιση των ροών εργασίας της τεχνητής νοημοσύνης σε κάθε στάδιο – από την επικύρωση των ειδοποιήσεων και την προστασία των δεδομένων RAG (recovery-augmented generation) έως τον έλεγχο εξωτερικών ενεργειών που βασίζονται στην τεχνητή νοημοσύνη και την επιβολή της συμμόρφωσης με την αντίδραση. Αντί να οικοδομήσουμε τον έλεγχο πρόσβασης από την αρχή, οι ολοκληρώσεις ελέγχου πρόσβασης AI της Permit.io με το PydanticAI, το LangChain, το MCP και το LangFlow επιτρέπουν στις ομάδες να ενσωματώνουν την ασφάλεια απευθείας στις εφαρμογές AI χωρίς να διαταράσσουν τις ροές εργασίας ανάπτυξης. . . Δοκιμάστε τον εαυτό σας εδώ Το πλαίσιο τεσσάρων περιφερειών είναι μια πειραματική προσέγγιση και ενώ παρέχει ένα ισχυρό θεμέλιο, αναγνωρίζω ότι οι πραγματικές εφαρμογές απαιτούν πάντα περαιτέρω βελτίωση και προσαρμογή. Θα ήθελα να ακούσω τα σχόλια, τις σκέψεις και τις ιδέες σας για το πώς να βελτιώσετε αυτό το πλαίσιο για να το κάνετε ακόμα καλύτερο για τα έτοιμα για παραγωγή συστήματα AI - σχολιάστε εδώ, ή χτυπήστε με στο δικό μας . Slack Κοινότητα